- COGNITIVES (SCIENCES)
- COGNITIVES (SCIENCES)Les sciences cognitives ont pour objet de décrire, d’expliquer et le cas échéant de simuler les principales dispositions et capacités de l’esprit humain – langage, raisonnement, perception, coordination motrice, planification... Nées il y a quelque trente-cinq ans dans un contexte scientifique fortement marqué par la naissance de l’informatique et le développement des notions et des techniques de traitement formel de l’information, elles constituent actuellement un faisceau de programmes de recherche relevant de différentes disciplines, articulés autour de quelques paradigmes, appuyés sur certains concepts-pivots et animés par un petit nombre d’idées-forces ou d’hypothèses fondamentales concernant la nature profonde de leur objet d’étude et la manière de la dévoiler.Ce sont ces paradigmes, concepts et hypothèses qui les distinguent, au sein des disciplines dont elles relèvent, d’autres traditions, et qui dans le même temps les rassemblent par-delà les divisions disciplinaires. Pourtant, elles posent dans leur progrès même la question de leur objet véritable, de leur délimitation, de leur spécificité et de leurs fondements. Il est donc impossible aujourd’hui de s’en tenir, pour décrire ce domaine encore très jeune, à une définition «extensionnelle» (par l’objet d’étude), ou à une définition «intensionnelle» (par les options théoriques), ou encore à une définition historique: il faut aller de l’une à l’autre, sans tenter de parvenir à une conception parfaitement stable et consensuelle. Cette difficulté se reflète dans des incertitudes terminologiques qui ne sont pas que cela, et qui compliquent la tâche de l’encyclopédiste.Enfin, le statut problématique de ces recherches pose à la philosophie des questions épistémologiques et méthodologiques qui, sans être absolument nouvelles, n’en ont pas moins une acuité et une actualité particulières, notamment en raison de l’intervention de la philosophie elle-même – de toutes les disciplines, celle qui se consacre depuis le plus longtemps, et le plus obstinément, à élucider les énigmes de la connaissance et de la cognition – dans des travaux qui se veulent fortement appuyés sur l’enquête expérimentale et généralement justiciables d’une évaluation scientifique.1. Constitution d’un champ interdisciplinaireBref historiqueSi les sciences cognitives ont, selon l’aphorisme de Howard Gardner, une histoire relativement courte, leur passé est très long: il remonte aux origines de la philosophie occidentale et plonge aux sources de certains des principaux courants scientifiques des temps modernes. Il est néanmoins possible de situer les «causes immédiates» de l’avènement de ces sciences dans la période qui s’étend entre le milieu des années 1930 et la fin des années 1940. Deux articles fondamentaux du grand logicien anglais Alan Turing encadrent symboliquement cette préhistoire: en 1936, il jetait les bases mathématiques et conceptuelles de ce qui deviendrait, au cours de la décennie suivante, et en partie une seconde fois grâce à lui, l’ordinateur électronique programmable; en 1950, il reformulait en termes modernes le vieux projet d’une machine intelligente, et en montrait la cohérence philosophique.La logique mathématique apporte au cours de cette période d’essentiels outils conceptuels et techniques, et constitue un cadre dans lequel peuvent être pensés à la fois le formalisme et le calcul, portés à un haut degré de généralité et d’opérativité. Mais c’est la cybernétique qui, à partir de 1943, rassemble la totalité des ingrédients nécessaires à la mise en œuvre du grand projet d’explication matérialiste et de simulation du mental dont sont issues les sciences cognitives: il s’agissait de rien de moins que penser ensemble le cerveau, l’esprit et la machine. À cette fin se développera une réflexion fondée sur les idées d’information abstraite, d’isomorphisme fonctionnel, voire d’identité entre machine et esprit, de réduction des processus intentionnels à des notions sans contenu mentaliste telles que contrôle, rétroaction, homéostase, etc., «incarnation» (embodiment ) des fonctions mentales, logiques et autres...Cette cybernétique de la première époque, qu’il importe de ne pas confondre avec des entreprises postérieures se réclamant de la même étiquette, fut dominée non tant par Norbert Wiener que par Warren McCulloch, penseur profondément original, esprit inclassable, maître fécond et généreux dont l’influence se fait encore sentir aujourd’hui. Même au sein des sciences cognitives, l’importance de la première cybernétique reste largement méconnue. C’est pourtant là qu’elles ont puisé une bonne part de leur inspiration initiale, là encore que, sans en avoir toujours conscience, elles retournent actuellement pour renouveler ou enrichir leur répertoire d’idées.Les idées de la première cybernétique se sont beaucoup développées à l’occasion d’une série de réunions interdisciplinaires, les «conférences Macy» (dix sessions entre 1946 et 1953), auxquelles participaient régulièrement, ou furent invités selon l’opportunité, outre les six cybernéticiens de la première heure (McCulloch, Wiener, John von Neumann, Arturo Rosenblueth, Julian Bigelow, Walter Pitts), des mathématiciens, des anatomistes, des physiologistes, des naturalistes, des psychologues, ainsi que quelques anthropologues, sociologues, linguistes et philosophes – citons, parmi les plus connus, Gregory Bateson, Kurt Lewin, Lorente de Nó, Margaret Mead, Leonard Savage et, à titre d’invités, W. Ross Ashby, Yehoshua Bar-Hillel, Max Delbrück, Roman Jakobson, Claude Shannon... Dans la diffusion de leurs idées, et leur confrontation aux courants dominants et à d’autres pensées naissantes, plusieurs colloques jouèrent un rôle important; les plus retentissants furent celui de New York en 1946, intitulé «Teleological Mechanisms», et le Hixon Symposium de 1948. L’influence de la cybernétique des origines s’exerça au cours des deux décennies suivantes à partir du laboratoire que McCulloch dirigea au Massachusetts Institute of Technology (M.I.T.) jusqu’à sa mort, et par lequel nombre des maîtres actuels passèrent. John von Neumann fut une autre figure clé, en raison tant du développement qu’il donna à la théorie des automates et de sa contribution décisive à la conception de l’ordinateur que de ses réflexions sur la nature des processus mentaux.La première cybernétique nous conduit à la naissance des sciences cognitives: la dernière conférence Macy se tient à Princeton en 1953, et en 1956 a lieu, au M.I.T., un «Symposium on Information Theory» qui marque symboliquement, aux yeux de plusieurs des principaux acteurs, le début d’un nouveau mouvement, intégrant dans une perspective commune la psychologie expérimentale, la linguistique théorique et la simulation par ordinateur des processus cognitifs. C’est également à 1956 (rencontre de Dartmouth) que l’on fait remonter la naissance officielle de l’intelligence artificielle, qui jouera un rôle décisif dans le développement du mouvement; c’est à la même époque qu’en anthropologie, en neurophysiologie et dans les disciplines représentées au congrès du M.I.T. une première série de travaux importants et de publications marquent l’avènement de ce qu’il faudra encore plus de vingt ans pour désigner du nom de «sciences cognitives».Les années 1960 voient s’affermir d’une part, dans chaque discipline concernée, des programmes de recherche fondés sur des conceptions apparentées, sinon littéralement identiques, de l’objet d’étude «cognition» et des tâches scientifiques qu’il appelle, et d’autre part le rapprochement entre disciplines: les psychologues Jerome Bruner et George Miller fondent en 1960, à Harvard, un Center for Cognitive Studies, qui jouera pendant une dizaine d’années un rôle catalytique important. Cette même année, un ouvrage de Miller, Pribram et Galanter critique de façon décisive le béhaviorisme classique alors régnant en psychologie, et propose une approche cybernétique. En 1967, un autre psychologue, Ulric Neisser, publie un livre intitulé Cognitive Psychology , et baptise ainsi une nouvelle forme de psychologie, tout en défendant et en illustrant son indépendance vis-à-vis d’une conception, défendue notamment par Herbert Simon et Allen Newell à la même époque, selon laquelle l’ordinateur fournit un modèle littéral de l’esprit humain. De cette décennie datent également les ouvrages qui, en anthropologie, en linguistique, en intelligence artificielle, semblaient annoncer l’entrée dans l’histoire scientifique contemporaine d’un nouveau paradigme.Les années 1970 sont marquées par l’attribution à plusieurs grandes universités, par deux fondations américaines (la Sloan Foundation et la Systems Development Foundation), de fonds considérables destinés à la création de véritables centres interdisciplinaires de grande envergure, capables de mettre en œuvre une politique scientifique ambitieuse et de donner aux nouvelles sciences une assise scientifique et institutionnelle. C’est des dernières années de cette décennie que date l’apparition de la locution «sciences cognitives». Des revues internationales, des sociétés savantes, des colloques et rassemblements annuels commencent à constituer un réseau de communication internationale et partiellement interdisciplinaire.Les années 1980 voient l’intelligence artificielle tout à la fois gagner en importance absolue et perdre, au sein de la «galaxie cognitive», en importance relative. Le développement institutionnel se poursuit, la mode aidant, avec l’apparition des premiers programmes d’étude et la création de départements multidisciplinaires, voire interdisciplinaires. La plupart des grands pays industriels participent à l’effort, même si les États-Unis demeurent largement en tête. Le connexionnisme (cf. infra ) envahit le domaine, obligeant à repenser certaines frontières, et critiquant, de l’intérieur, nombre de ses hypothèses initiales. Pourtant, une certaine stabilisation globale se fait sentir, et laisse à penser que les sciences cognitives, précisément parce qu’elles ont pu mettre en question certains de leurs présupposés sans pour cela s’effondrer, ont désormais atteint une maturité et une robustesse qui les mettent à l’abri de tout risque de disparition subite par retournement de l’effet de mode.Les disciplines et les regroupementsLes principales disciplines actuellement impliquées dans l’entreprise sont au nombre de cinq. Il s’agit de la psychologie, de la linguistique, de la philosophie, de l’intelligence artificielle et des neurosciences (fig. 1).Il règne cependant une certaine confusion dans l’emploi de l’expression «sciences cognitives». Au sens le plus étroit (et sans doute le plus courant aujourd’hui), elles regroupent seulement les programmes de recherche qui, en psychologie, en linguistique, en philosophie (à laquelle on rattache la logique) et éventuellement dans certaines sciences sociales, tentent de caractériser les aptitudes cognitives humaines (et éventuellement animales) au niveau dit fonctionnel, c’est-à-dire indépendamment de leur réalisation matérielle dans le système nerveux. En un sens intermédiaire, on leur rattache précisément les neurosciences, au lieu de les opposer dans un rapport de complémentarité. L’objet des neurosciences étant de caractériser le système nerveux en tant que système physico-chimique, celui des sciences cognitives entendues en sorte de les inclure admet une caractérisation simple: la cognition dans sa réalisation biologique, ou encore l’«esprit/cerveau» (en anglais, le mind/brain ). Ce n’est qu’en leur acception la plus large que les sciences cognitives comprennent également l’intelligence artificielle, rassemblant ainsi la totalité des approches scientifiques de la cognition, dans ses réalisations tant biologiques qu’artificielles. Il arrive enfin que l’on regroupe les sciences cognitives au sens étroit et l’intelligence artificielle: ce qui est visé est alors une caractérisation fonctionnelle de la cognition dans toutes ses manifestations; on dira encore, en introduisant, par anticipation, un premier élément de doctrine, que l’objectif est ici de constituer une science des systèmes de traitement de l’information capables d’intelligence.D’autres disciplines ou spécialités viennent enrichir et compliquer cette figure pentagonale. En premier lieu, il faut mentionner l’anthropologie, qui dès les conférences Macy est étroitement associée au projet d’une science du mental et qui fait partie, dans l’esprit des témoins de l’époque, du groupe fondateur. Pour des raisons complexes, s’il existe bien une branche «cognitive» de l’anthropologie, et même si plusieurs contributions centrales en sciences cognitives sont dues à des anthropologues, la discipline ne participe pas pleinement aujourd’hui au mouvement scientifique et institutionnel qui nous concerne. Il est cependant probable qu’elle finira par trouver la place importante qui lui était assignée à l’origine.D’autres sciences humaines ont également vocation à se rapprocher de la nouvelle famille, sans nécessairement s’y fondre ni y jouer un rôle déterminant. Dès à présent, la sociologie et surtout la psychologie sociale tournent leurs regards vers les sciences cognitives; la seconde a même un rôle tout trouvé dans l’évolution à venir, qui est de ménager une articulation solide entre la sociologie et généralement les sciences du social d’une part, et de l’autre les sciences cognitives qui sont actuellement pour l’essentiel des sciences de l’individuel. Pour l’instant, c’est l’économie qui s’efforce de prendre en compte, dans le cadre d’une théorie de la rationalité, certains travaux récents sur la cognition, principalement en rapport avec les représentations et anticipations des agents, d’une part, et avec leurs processus de décision, de l’autre.Il faut ensuite mentionner des spécialités charnières: la neuropsychologie, qui étudie les correspondances entre déficits cognitifs (caractérisés au niveau psychologique) et lésions ou dysfonctionnements cérébraux (lesquels relèvent bien sûr des neurosciences); la psycholinguistique, qui décrit les bases psychologiques des facultés langagières; la psychophysique, dont la tâche principale est de décrire les capteurs sensoriels humains et animaux en tant que systèmes physiques; la robotique, qui s’efforce d’intégrer les travaux d’intelligence artificielle, voire de neurophysiologie, à la mécanique et aux théories mathématiques du contrôle.Quant aux mathématiques, elles interviennent soit directement (géométrie, théorie des systèmes dynamiques, probabilités et statistiques), soit par la médiation de la physique d’un côté, de la logique et de l’informatique de l’autre, pour fournir des outils d’analyse, de description ou de simulation (fig. 2).On constate enfin, par-delà les regroupements que justifient des objectifs partagés ou certains domaines d’étude communs, des affinités fondées sur des voisinages méthodologiques, sur des goûts scientifiques, sur des styles de travail et d’argumentation. Linguistes, psychologues, philosophes, logiciens forment alors un premier pôle, une première «culture»; un deuxième groupe comprend les spécialistes des neurosciences, les physiciens et les mathématiciens; un troisième, les informaticiens et les spécialistes d’intelligence artificielle et de modèles informatisables, connexionnistes ou autres. Dans la première culture, ce sont les processus cognitifs «supérieurs», dont l’inférence est l’archétype ou l’armature, et leurs résultats cristallisés en savoir , produit humain par excellence, qui sont privilégiés; dans la deuxième, ce sont les processus «inférieurs», en particulier perceptifs et moteurs , marques d’un savoir-faire partagé dans une mesure variable avec les animaux (ce qui explique la présence dans ce deuxième groupe de certains psychologues, ceux qui étudient précisément la perception dite bas niveau, d’éthologues et de certains connexionnistes); dans la troisième, ce qui compte sont les perspectives de simulation, d’application (et bien des spécialistes provenant des domaines rattachés en majorité aux deux premiers pôles s’identifient à titre individuel au troisième). D’un premier côté, donc, les sciences humaines; d’un deuxième, les sciences de la nature; d’un troisième, les sciences de l’ingénieur. Mais ces différences de tempérament ne dessinent qu’en pointillé des frontières mouvantes, floues, et probablement provisoires.Principales aires de recherchePour tenter de situer et de classer les recherches se réclamant des sciences cognitives, il est commode, en première analyse, d’introduire trois dimensions taxonomiques. (Nous reprenons ici la méthodologie appliquée à une enquête récente sur l’état des sciences cognitives en Europe: cf. M. Imbert et al. dir., Cognitive Science in Europe , Springer Verlag, 1987.)La première est celle des aptitudes ou compétences cognitives étudiées. Historiquement, l’effort s’est en effet principalement réparti entre quatre grandes aires: le langage, le raisonnement, la perception (surtout la vision) et l’action (planification et motricité). Naturellement, ces termes prennent ici une acception particulière, et recouvrent notamment des phénomènes plus divers que ceux qu’ils évoquent ordinairement. Dans la rubrique «raisonnement», par exemple, se range l’inférence inductive et l’apprentissage, et en outre toutes les variétés «automatiques», non délibérées ni conscientes, d’acquisition de connaissances ou croyances nouvelles à partir d’un corpus initial.D’autre part, l’un des présupposés fondamentaux du domaine demeure, malgré certaines mises en cause récentes, la possibilité d’aborder la cognition à différents niveaux, analysables jusqu’à un certain point indépendamment les uns des autres. D’où la deuxième dimension, selon laquelle trois ou parfois quatre niveaux se laissent distinguer. Le premier est celui de la réalisation matérielle des mécanismes, c’est-à-dire, du côté biologique, celui où se placent les neurosciences, et, du côté artificiel, celui des bases électroniques et mécaniques des processus décrits, au niveau supérieur, dans le vocabulaire de l’informatique. Le deuxième niveau est celui de la caractérisation fonctionnelle des processus, dans le vocabulaire de la psychologie ou de l’informatique. Au troisième niveau, ces processus sont décrits en tant qu’algorithmes, suites réglées d’opérations élémentaires. Au quatrième, enfin (qui n’est que rarement, dans la pratique, distingué clairement du précédent), ce sont les propriétés formelles des modèles invoqués qui sont étudiées, y compris leurs éventuelles limitations.Selon la troisième et dernière dimension se disjoignent les études portant sur l’«état final» des systèmes étudiés, c’est-à-dire, dans le cas de l’homme, sur les capacités de l’esprit adulte, passée la période d’apprentissage, de celles qui concernent précisément l’acquisition de ces capacités, ou encore le passage d’un «état initial» à l’état final. L’état initial est ici conçu (ce qui ne va pas sans certains choix théoriques qui ne sont pas à l’abri de toute contestation, mais qu’il est impossible de discuter ici) comme la dotation de l’enfant ayant achevé, pour l’essentiel, sa maturation nerveuse, mais n’ayant pas encore entrepris, au contact de l’environnement, d’acquérir les aptitudes cognitives qui sont celles de tout adulte normal. Il existe, au moins théoriquement, un équivalent de cette perspective dans le cas de la machine, et l’apprentissage constitue d’ailleurs désormais une spécialité au sein de l’intelligence artificielle (machine learning ). Cependant, ni l’état initial ni l’état final ne peuvent, comme dans le cas de l’homme, être caractérisés intrinsèquement, ce qui limite la portée des résultats encore très fragiles sur l’apprentissage automatique.En combinant les trois dimensions, on obtient un «prisme» à trente-deux cases dans lesquelles on peut ranger une bonne partie des recherches sur la cognition humaine (fig. 3). Certains travaux échappent cependant à cette classification (notamment les recherches, pourtant centrales en psychologie, sur la mémoire ou l’attention), certains thèmes, et non des moindres (la communication, la représentation par exemple), traversent les cloisons, et rien ne garantit que l’évolution du domaine n’obligera pas à modifier le prisme, voire à y renoncer. On peut dès à présent se demander comment y situer certains travaux s’inscrivant dans la perspective connexionniste. Mais il est aujourd’hui bien utile, et donne une image assez fidèle des relations de voisinage entre les différents groupes de chercheurs, entre les différentes écoles de pensée.Hypothèses et choix stratégiquesIl n’est pas facile d’énoncer les hypothèses fondamentales sur lesquelles s’appuient les sciences cognitives. D’une part, il se trouve toujours quelque courant pour rejeter telle formulation que l’on proposera; d’autre part, bien des travaux conservent leur portée lorsqu’on modifie le cadre général dans lequel on avait pu d’abord penser qu’ils s’inscrivaient nécessairement; enfin, la nature même des hypothèses (sont-elles ontologiques ou seulement méthodologiques?) donne lieu à des désaccords. C’est là le lot, sans doute, de toute science. Mais, peut-être en raison de leur jeunesse, les sciences cognitives sont le lieu et l’objet de discussions particulièrement vives sur la question de leurs fondements.Ces réserves faites, nous énoncerons trois des hypothèses les plus communément adoptées (à un titre ou à un autre, et de manière plus ou moins explicite) dans ces sciences:1. Dans la description et l’explication des phénomènes cognitifs, le niveau physique (au sens large: bio-chimico-physique) demeure insuffisant; il doit être complété (voire, pour certains, essentiellement remplacé) par un niveau représentationnel : les états des systèmes physiques considérés représentent des informations , et c’est dans cette mesure qu’ils sont, outre des états physiques, des états cognitifs.2. De même, les transformations que subissent ces états ne peuvent être décrites seulement comme des processus physiques (toujours au sens large), mais aussi comme des calculs sur les représentations dont ils sont porteurs.3. Quoique tout phénomène cognitif s’articule d’une part à un stimulus (effet de l’environnement sur le système – organisme ou système artificiel – siège du phénomène en question, exercé par l’intermédiaire des capteurs du système), de l’autre à une réponse ou réaction (effet du système sur l’environnement, exercé par l’intermédiaire d’effecteurs), et quoique ces effets constituent les traces empiriques fondamentales à partir desquelles la théorie s’élabore et à l’aune desquelles elle évalue ses résultats, la cognition ne se limite pas à ces effets. Au contraire, l’essentiel du processus se situe précisément entre le stimulus et la réponse, et donne lieu à des généralisations largement indépendantes des valeurs spécifiques des effets extrémaux. Il y a donc tout à la fois rejet du béhaviorisme, adoption d’un mentalisme résolu (affirmation de l’importance de processus strictement internes, dotés de réalité et d’autonomie), et indication d’une distance par rapport aux méthodes introspectives et phénoménologiques.À ces hypothèses «ontologiques», au sens où elles portent sur la nature des phénomènes étudiés (ou peuvent du moins être interprétées ainsi – car, on l’a dit, elles sont également susceptibles d’une interprétation instrumentaliste), s’ajoutent des paris méthodologiques et des choix stratégiques.– Même s’ils ont été d’abord identifiés et discutés dans la tradition philosophique, qui a généralement cherché à les caractériser à l’aide d’un petit nombre de termes très généraux, les phénomènes cognitifs sont accessibles à l’enquête scientifique, et sont notamment susceptibles d’être décrits, expliqués, voire simulés un par un . (Faut-il préciser que les problèmes philosophiques ne disparaissent pas tous pour autant? Certains se déplacent, d’autres se posent en termes nouveaux, etc. H. Gardner va jusqu’à considérer que c’est la tradition philosophique qui dicte aux sciences cognitives l’essentiel de leur ordre du jour.)– L’étude de la cognition ne peut être qu’interdisciplinaire: la plupart des phénomènes intéressants, sinon la totalité, ne se laissent pas décrire exhaustivement dans le vocabulaire d’une seule discipline. Ils exigent non seulement le recours à des concepts empruntés à plusieurs disciplines, mais même sans doute à des concepts nouveaux, transversaux, qui seront ceux d’une science de la cognition future.– S’il n’est pas question de nier l’importance, dans la cognition, des facteurs affectifs d’une part, sociaux, historiques et culturels de l’autre, il est possible et même nécessaire, en première analyse, de les négliger, quitte à les réintroduire dans une étape ultérieure.Progrès en amont et avancées techniquesLa seule dynamique des idées ne suffirait pas à expliquer le prodigieux développement des disciplines de la cognition depuis une trentaine d’années. Des progrès scientifiques dans des disciplines situées en amont, et des progrès techniques, instrumentaux et calculatoires, y ont également contribué de façon décisive.En psychologie, les méthodes chronométriques se perfectionnent au point de rendre possible des analyses fines des processus fondées sur l’étude différentielle de temps de réaction très faibles, mesurés en centièmes de seconde.En neuroanatomie et en cytologie, les marqueurs radioactifs, les micro-injections réversibles, les coupes ultrafines, les techniques d’imagerie non invasives procurent une représentation des structures cérébrales et de la connectivité neuronale d’une précision qui eût été proprement inconcevable dans un passé tout récent.En neurophysiologie, les nouveautés sont nombreuses. Citons en premier lieu la possibilité non seulement de pénétrer dans la boîte crânienne (au lieu de se contenter d’enregistrer les potentiels électriques à la surface, technique traditionnelle de l’E.E.G.), mais de déterminer l’activité de neurones isolés, de les stimuler, et donc enfin de mettre en rapport les activités de différents neurones. En second lieu, la miniaturisation et les perfectionnements apportés à la transmission des signaux par voie hertzienne et à leur traitement en temps réel ont ouvert la possibilité d’étudier l’activité neuroélectrique de l’organisme intact, éveillé et en situation naturelle.En neurochimie, la biologie moléculaire a rendu possible l’exploration systématique des substances (neurotransmetteurs et neurohormones) engagées dans les processus cérébraux, révélant la diversité des unes et la complexité des autres, et bouleversant ainsi une conception doublement simpliste du cerveau et du neurone.L’image beaucoup plus différenciée et détaillée que les neurosciences donnent désormais du cerveau et de son fonctionnement a permis à la neuropsychologie d’approfondir et de raffiner considérablement les distinctions que depuis Broca elle a établies entre les formes que prennent les déficits cognitifs.L’informatique est bien entendu omniprésente, et sans les progrès, qualitatifs et quantitatifs, du matériel, sans la mise au point de langages de haut niveau et de logiciels de traitement des données (notamment en temps réel), fort peu des avancées obtenues dans les sciences cognitives ou en amont d’elles auraient été concevables. En mathématiques ou en physique, certains développements de la théorie des systèmes dynamiques, de la statistique, des verres de spin, etc., ont joué un rôle plus localisé mais déterminant.Tous ces progrès, dont l’énumération n’est pas exhaustive, sont l’une des raisons de la robustesse des sciences cognitives. Quoi qu’on puisse penser, aujourd’hui ou demain, de leurs choix théoriques et stratégiques, elles ont semble-t-il atteint le point de non-retour: il est peu vraisemblable qu’un revers, qu’un infléchissement, tel que celui que semble annoncer dès à présent le succès du connexionnisme, remette prochainement en cause les acquis ou le statut de ces sciences. Il n’en va naturellement pas de même de leurs rapports mutuels, de leur situation par rapport aux autres branches du savoir, de leur degré de formalisation, de leur applicabilité ou des dénominations qu’elles se choisiront.2. Fondements: deux grandes approchesOn oppose couramment deux grandes conceptions de l’objet des sciences cognitives, commandant deux approches de l’explication, de la description et de la simulation des phénomènes cognitifs: le «cognitivisme» et le «connexionnisme». En fait, s’il est exact qu’il y a actuellement des divergences sensibles entre deux courants, il n’est nullement évident pour tous que ces divergences soient fondamentales. Plutôt que de deux courants, il conviendrait plutôt de parler d’une très vigoureuse direction nouvelle – le connexionnisme – s’appuyant sur une tradition – dite classique ou cognitiviste – tout en s’en démarquant sur différents points, dont l’importance est diversement appréciée par les chercheurs eux-mêmes et selon le point de vue. Situation qui rappelle un peu celle de la Réforme par rapport au catholicisme. Ce n’est guère qu’en intelligence artificielle qu’on peut parler de deux écoles se faisant équilibre et concurrence.De plus, pour nombre de recherches, il est très difficile de dire qu’elles se rattachent à un courant plus qu’à l’autre, et l’opposition semble à certains largement factice, ou du moins exagérée. Enfin, au sein du courant classique se dessinent des tendances qui ne diffèrent pas moins entre elles qu’avec certaines écoles connexionnistes, tandis que divers programmes, notamment néo-cybernétiques, s’opposent aussi bien à un courant qu’à l’autre.Ayant ainsi mis le lecteur en garde, nous tenterons dans le présent chapitre de caractériser à grands traits, successivement, le cognitivisme et le connexionnisme.Le cognitivismeLe cognitivisme conçoit la cognition comme un calcul sur des représentations internes ou mentales: un organisme, ou système cognitif, agit intelligemment dans son environnement en en formant des représentations et en les modifiant, compte tenu de ses croyances et de ses désirs (ou des buts qui lui sont assignés). Comme il ne s’agit nullement de restreindre la cognition à la cogitation délibérée (laquelle n’est d’ailleurs que le résultat de processus internes d’une nature sans doute toute différente), il est crucial de ne pas attribuer aux représentations et processus en question un caractère conscient: c’est (entre autres) le comportement conscient et la vie mentale d’un individu humain qu’il faut expliquer, et le recours aux délibérations d’un homunculus à l’image de l’homme même ouvre évidemment la porte à une régression infinie.Ce n’est pas cependant par cette conception très générale que le cognitivisme se distingue du connexionnisme, mais par la position qu’il adopte conjointement sur quelques questions plus précises:1. Quel est le médium (théorique) à partir duquel sont façonnées les représentations mentales?2. Comment s’établit et se maintient le lien entre les représentations et ce qu’elles représentent?3. Quelle sorte de calcul est appliqué à ces représentations?4. Quel est le rapport entre l’explication «computo-représentationnelle» de la cognition et son explication en tant que phénomène naturel, ou physique?5. Quel dispositif physique existant fournit-il à la fois une image du système cognitif humain, et une simulation possible de ce système?Les réponses cognitivistes sont schématiquement les suivantes. En premier lieu, les représentations mentales sont à l’image de formules, ou expressions bien formées, d’un langage interne (langage de la pensée ou «mentalais»). Ce langage doit être conçu comme un langage formel, tels ceux de la logique mathématique: il possède donc des règles morphologiques et syntaxiques qui lui confèrent une autonomie formelle, et des règles sémantiques qui précisent les relations entre expressions du langage et entités ou situations représentées. Si l’on admet donc que le contact avec l’environnement permet au système de déterminer la valeur sémantique des symboles primitifs de son langage interne, celle des symboles composés qu’il produit dans le cours de son fonctionnement est entièrement déterminée; c’est le parallélisme strict entre syntaxe et sémantique, ou, dit autrement, le caractère compositionnel de la sémantique [cf. LOGIQUE MATHÉMATIQUE], qui garantit le maintien, au cours des processus cognitifs, d’une adéquation des représentations à l’univers représenté. Telles sont les réponses aux questions 1 et 2.C’est encore la logique des années 1930 (travaux d’Alan Turing et d’Alonzo Church) qui rend possible une réponse absolument déterminée à la question 3. En effet, nous savons depuis cette époque que si par calcul on entend une suite finie d’opérations sur des symboles ou éléments discrets (ce qu’on appelle en mathématiques un algorithme), la notion générale de calcul est indépendante de la machine, système (esprit humain) ou procédure mathématique abstraite exécutant ou réalisant le calcul – à une idéalisation près, celle d’une capacité infinie de mémoire. Les fonctions calculables constituent ainsi une sorte d’«espèce naturelle», insensible à de larges variations de définition. Et les calculs auxquels sont soumises les représentations mentales peuvent être par exemple décrits comme ceux qu’exécute une machine de Turing, ou, encore, comme on peut le dire aujourd’hui, un ordinateur numérique.La question 4 – qui n’est qu’une reformulation, dans le présent contexte, du vénérable problème du rapport entre le corps (le cerveau, système physique) et l’esprit (le mens , siège des représentations mentales) – reçoit ici une réponse à la fois matérialiste, moniste, et non réductionniste: selon la doctrine de l’«identité occasionnelle» (token identity ), tout état mental est identique à un état physique, mais les catégories d’états mentaux que font intervenir les énoncés généraux de la psychologie ne correspondent pas à des catégories caractérisables dans le vocabulaire des sciences physiques (au sens large, biologie comprise). Cette thèse s’oppose au monisme réductionniste qui postule l’«identité catégorielle» (type identity ) entre états mentaux et états physiques. Les types ou catégories d’états mentaux auxquels doit se référer la psychologie sont définis à partir du rôle fonctionnel que ces états jouent dans le déroulement régulier des processus cognitifs – d’où le terme de fonctionnalisme qui désigne souvent soit la thèse de l’identité occasionnelle, soit, plus largement, la position cognitiviste. Due au philosophe Hilary Putnam, reformulée avec vigueur par son collègue Jerry Fodor et par des spécialistes de l’intelligence artificielle tels qu’Allen Newell et Herbert Simon, cette doctrine est actuellement l’objet de vives discussions chez les philosophes et théoriciens des sciences cognitives, et Putnam lui-même l’estime maintenant insuffisante.La réponse donnée à la question 5, à savoir l’ordinateur, ou machine de von Neumann, confère cependant une certaine plausibilité à la thèse fonctionnaliste. L’ordinateur est en effet un système physique susceptible de deux caractérisations largement indépendantes. C’est d’une part un système physique, dont l’évolution est régie par des équations de transition fournies en principe par les lois de la physique. Mais c’est d’autre part également un système de traitement de l’information, dont les états peuvent être caractérisés comme états calculatoires, sans référence directe à leur constitution physique, les processus de traitement agissant sur ces états eux-mêmes décrits à partir de causes ou fonctions de nature non physique mais calculatoire («Ajouter n à p », «Rechercher dans la liste L les éléments commençant par s», etc.) – réductibles en principe aux opérations d’une machine de Turing.Il est clair que c’est en général ainsi, et non à partir des lois de la physique, que l’observateur a intérêt à considérer l’ordinateur, de même que c’est en tant que système de rouages qu’il considérera en général une montre, et non comme système dynamique régi par les équations de la mécanique quantique. Et c’est à ce niveau que l’observateur saisira ce qu’ont de commun deux ordinateurs équivalents sur le plan calculatoire mais de constitution physique différente. Méthodologiquement est ainsi posé le principe d’une indépendance explicative de la psychologie (vue ici comme science des systèmes de traitement de l’information que sont – aussi – les esprits humains) par rapport aux neurosciences, et de l’informatique/intelligence artificielle par rapport à l’électronique. Cette indépendance n’est toutefois que relative: d’un niveau sur l’autre se transmettent des contraintes – tel mécanisme fonctionnel peut être exclu faute d’une réalisation (ou «implémentation») possible ou seulement plausible; telle description de l’architecture ou du fonctionnement cérébral peut être mise en cause par son incompatibilité apparente avec des hypothèses retenues au niveau fonctionnel.Il est essentiel de ne pas considérer ici l’ordinateur comme un simple calculateur, mais comme un système agissant sur des représentations symboliques internes: le ruban de la machine de Turing, la mémoire de l’ordinateur n’ont pas moins d’importance que les opérations régies par la table ou par le programme, et ce que renferme le ruban, la mémoire, ce ne sont pas des nombres, mais des symboles généraux uniquement définis par leur appartenance à un jeu de symboles régi par des règles syntaxiques.Le rôle joué par l’ordinateur dans la réflexion sur les fondements des sciences cognitives est subtil. D’une part, il est incontestable que son apparition a beaucoup frappé les esprits (à juste titre) et que, conjugué à d’autres facteurs, il est directement à l’origine d’idées (parfois peut-être contestables) et de programmes de recherche dont la confluence a fini par prendre le nom de sciences cognitives. D’autre part, il ne doit être compris aujourd’hui ni strictement comme modèle ni simplement comme métaphore. Le cerveau et l’esprit humains en diffèrent trop profondément pour que l’idée de le prendre tel quel pour modèle, à quelque niveau de description que ce soit, ait la moindre plausibilité (ceux qui ont cru le contraire, comme ceux qui ont cru nécessaire de déployer les grands moyens pour le prouver, se sont lourdement trompés). Mais, inversement, ne voir dans la relation entre esprit/cerveau et ordinateur qu’une métaphore interdit d’en comprendre la fécondité opératoire: l’ordinateur prouve, par son principe et par son existence, la cohérence conceptuelle et la possibilité matérielle de rapports théoriques d’un genre nouveau, et de dispositifs les incarnant; sur ces rapports s’érigera peut-être une science de l’esprit, et peut-être sera-t-on assuré un jour que ces dispositifs sont de ceux que le cerveau met en œuvre.En pratique, le rapport entre le cadre classique que l’on vient de décrire à grands traits et les différents programmes de recherche qui s’y inscrivent n’est pas toujours étroit, il s’en faut. Sur certains aspects un désaccord explicite peut se faire jour, mais sur d’autres il n’y a ni accord ni désaccord, et c’est surtout par cette abstention que les programmes proprement scientifiques manifestent leur indépendance. On retrouve ici une situation bien connue en mathématiques ou en physique, lesquelles ne ressemblent que de loin aux recherches sur leurs fondements, et ne s’y reconnaissent qu’incomplètement.Le connexionnismeS’il se distingue du cognitivisme et sur certains points s’y oppose, le connexionnisme n’est pas quant à lui une philosophie de la cognition – du moins, ce n’est pas ce qu’il est d’abord. Il se présente en effet comme un ensemble de méthodes de modélisation et de simulation de toute une variété de processus cognitifs; et c’est en cherchant à dégager les traits communs à ces méthodes, et les avantages qu’elles présentent sur les méthodes classiques, que les connexionnistes ont commencé à élaborer une doctrine. À cet égard, leur parcours n’est pas sans rappeler celui de l’intelligence artificielle. Partie d’un outil (l’ordinateur) et de quelques idées très générales, elle entreprit d’écrire des programmes simulant des tâches telles que le jeu d’échecs et la résolution de problèmes de géométrie ou de calcul propositionnel; puis, pariant que ces premières tentatives étaient autant de premiers pas vers une solution générale, elle voulut formuler la conception de l’intelligence, ou de la cognition, qui s’en dégageait et lui paraissait devoir être confirmée. Les psychologues, les linguistes, les philosophes se mirent alors de la partie, élargissant, complétant et précisant la théorie – ainsi naquit le cognitivisme.Avec un décalage d’une quinzaine d’années, le connexionnisme, renouant avec la première cybernétique et certains de ses prolongements (principalement le célèbre perceptron de Frank Rosenblatt), part d’un outil (le réseau de neurones formels), entreprend de simuler des fonctions telles que la classification de formes, la mémoire associative ou la prononciation de l’anglais; puis, estimant, non sans audace, que ses premiers succès annoncent un progrès décisif, part à la recherche de ses fondements. Cette fois, cependant, un milieu scientifique constitué est en mesure de prendre la relève, ce qui explique la «contagion» rapide des idées connexionnistes.Avant de présenter rapidement le connexionnisme, précisons qu’il existe, au sein de ce courant, plusieurs écoles qui diffèrent autant par leurs options théoriques que par les mécanismes particuliers auxquels ils attribuent un rôle privilégié dans l’explication ou la simulation des phénomènes. Historiquement, le connexionnisme se définit, on l’a vu, par la machine, fonctionnellement décrite, dont il conjecture qu’elle est capable d’intelligence ou de cognition: cette machine, le réseau de neurones formels (ou réseau neuromimétique , neural net en anglais), est au connexionnisme ce que la machine de von Neumann est au cognitivisme et à l’intelligence artificielle traditionnelle. S’il est vrai qu’il existe de nombreuses variantes de réseau (alors que la machine de von Neumann est essentiellement unique), on peut cependant donner une sorte de «portrait-robot» du réseau connexionniste.Il s’agit d’un ensemble d’automates très simples interconnectés (fig. 6). Les connexions permettent à un automate tel que i de transmettre à un automate j une simulation positive (excitatrice) ou négative (inhibitrice), déterminée par l’état d’activité u i de i et modulée par un poids synaptique w ji ne dépendant que du canal. Les automates (ou unités ) sont en général tous identiques – ce sont souvent des automates à seuil , capables de comparer la somme pondérée des simulations afférentes i u i w ji à un seuil S j et à se mettre en état d’activité si ce seuil est dépassé, à s’éteindre sinon. Le système est donc caractérisé, à chaque étape de son évolution, qui est discrète, par un vecteur d’activation u = (u 1, ...., u n ); la transition d’une étape à la suivante résulte d’une mise à jour, soit par tous les automates simultanément, soit par un seul, des valeurs d’activité. Le processus commence par l’imposition d’un certain vecteur d’activation u 0 qui peut être considéré comme la donnée ou input , se poursuit par itération de la règle de transition, et se termine lorsque le système atteint un équilibre caractérisé par un vecteur u N, résultat ou output de ce qu’on peut appeler le calcul effectué par le réseau.L’identité du réseau, au cours de ce calcul, est préservée sous la forme du vecteur w des poids synaptiques. C’est de ce vecteur que dépend, à input égal, le comportement du réseau et le résultat de son calcul – en ce sens il constitue sa «compétence»; on dit parfois que les «connaissances» d’un réseau sont représentées ou emmagasinées dans ses connexions. Quant à la manière dont cette compétence est acquise, elle est actuellement au cœur des recherches: dans certaines conditions, un réseau peut l’acquérir spontanément, à partir d’exemples fournis par l’environnement. Cette capacité d’apprentissage «naturel» est l’une des grandes qualités des réseaux: ils font ce qu’on leur demande sans qu’il soit nécessaire de leur donner des instructions, de les programmer.Ce n’est pas leur seule qualité. Leur comportement lui-même présente des propriétés remarquables: un réseau est capable, moyennant des conditions favorables, de généraliser, d’extraire la tendance moyenne ou de composer un type caractéristique d’un échantillon, de restaurer des données fortement altérées ou tronquées. Quand on l’éloigne de son domaine d’application, ou quand on le surcharge d’exemples, ses performances ne se dégradent que progressivement. Lésé, il continue de produire des résultats acceptables, quoique moins bons, et, s’il est gravement abîmé, il réapprend vite. Ici encore, ce sont des propriétés naturelles, qui ne résultent pas d’instructions ad hoc, ce qui souligne la différence par rapport aux modèles cognitivistes.Ce n’est cependant qu’en examinant le fonctionnement des réseaux que l’on prend la véritable mesure de cette différence. La plus frappante est le caractère «massivement» parallèle des opérations: quoiqu’il puisse subsister une horloge interne qui rythme l’évolution du système, c’est à chaque étape, potentiellement ou de fait, autant d’opérations indépendantes qu’il y a d’unités qui s’effectuent simultanément. Cela suffirait à distinguer le sens que revêt ici «calcul» par rapport au sens canonique d’opération turingienne. Mais de plus, dans certaines versions du connexionnisme, chaque opération élémentaire peut être vue comme portant sur des quantités continues et non discrètes. Enfin, il arrive que ces opérations soient aléatoires.L’analyse de l’évolution d’un réseau passe par la mécanique statistique et la théorie des systèmes dynamiques, non par la logique des programmes. Remarquons d’ailleurs qu’il n’y a ni programme, au sens strict du mot, ni unité de contrôle. Chaque unité est autonome, et ne propage que localement son influence. Cette influence peut certes être interprétée comme une sorte d’inférence, mais seulement plausible et non rigoureuse: elle est modulée et peut être soit renforcée, soit bloquée par d’autres influences. L’état stable est un équilibre , non un arrêt .Quant au mode de représentation, il n’est pas moins original que le mode de calcul. Un système d’intelligence artificielle classique stocke en mémoire des expressions quasi linguistiques interprétables comme des descriptions d’objets, de faits ou de règles, et selon les besoins du programme les consulte, les reproduit ou les transforme selon les règles formelles. Un réseau connexionniste ajuste ses poids synaptiques, et capte ainsi les régularités de l’environnement, qui n’est donc pas décrit , mais reflété avec une fidélité plus ou moins grande – précieuse souplesse! La «connaissance» – si ce mot convient – semble être ici intégralement implicite; plutôt que de connaissance, on serait tenté de parler d’adaptation: le système a une capacité dispositionnelle à agir en conformité avec certains aspects saillants de l’environnement. Enfin, dans les réseaux utilisant des représentations dites distribuées, chaque concept correspond à l’activation non d’une, mais d’un grand nombre d’unités; inversement, chaque unité contribue à la représentation de plusieurs concepts: si les concepts sont ici ceux auxquels l’esprit a naturellement affaire dans la tâche qui l’occupe, ceux dont le modélisateur veut doter un système qu’il charge de cette tâche, alors ce que représente une unité est d’un ordre différent – c’est un «micro-trait», un fragment de sens invisible à l’œil nu, un constituant proto-sémantique destiné à entrer dans des assemblages variables, selon des règles non pas formelles, mais sensibles au contexte et à la tâche du moment. Seuls ces assemblages sont dotés d’une valeur sémantique au sens propre. Telle est du moins l’interprétation encore controversée proposée par certains connexionnistes: les réseaux d’aujourd’hui ne reflètent que très incomplètement cette conception, dont le rôle est surtout programmatique.Quoi qu’il en soit des propositions plus radicales du connexionnisme, on voit donc que dans les réponses qu’il donne aux questions 1 à 5 formulées plus haut il se distingue nettement du cognitivisme. En fait, rien de précis n’a encore été dit de sa réponse à la question 4. Or beaucoup en dépend. En effet, s’il se dit fonctionnaliste (ce qui est en général le cas), le connexionniste doit préciser le niveau auquel selon lui se situe la description fournie par le réseau. S’agit-il du même niveau fonctionnel que le cognitivisme, ou bien d’un niveau inférieur? Dans le premier cas, il faut justifier le caractère psychologiquement peu plausible de certains aspects du fonctionnement des réseaux, mais surtout leur incapacité à modéliser directement les tâches impliquant des représentations structurées – en premier lieu le langage et le raisonnement. Dans le second cas, il faut répondre à une autre question: le niveau du réseau est-il identique à celui de l’«implémentation» dans le schéma classique – les automates sont-ils des neurones idéalisés (lorsque le réseau modélise), et des composants élémentaires (lorsqu’il simule)? Une réponse positive à cette nouvelle question entraîne pour le réseau deux risques: celui de l’invalidation pour insuffisance sur le plan biologique (les réseaux ne seraient pas des modèles acceptables du système nerveux), celui de la réduction au statut de hardware , de matériel (les réseaux ne seraient qu’une façon nouvelle, utile dans certains cas, de réaliser les opérations cognitives dont la caractérisation demeurerait du ressort du cognitivisme). Une réponse négative ramène le connexionniste au point de départ: où donc se situe le réseau? Certains chercheurs penchent en faveur d’une sorte de fonctionnalisme «quantique»: le réseau se situerait à un niveau intermédiaire, au-dessus de la neurobiologie et de l’implémentation, au-dessous du niveau psychologique et linguistique ordinaire, le rapport avec celui-ci devant être pensé comme celui de la micro-physique avec la physique newtonienne des objets de taille moyenne animés de faibles vitesses. Il s’agirait donc d’un niveau fonctionnel fondamental, le niveau supérieur ne fournissant qu’une description approximative parfois utile.Dans l’impossibilité de conclure, terminons cet examen comparé des positions cognitivistes et connexionnistes par un dernier contraste. Il reste au cognitiviste à nous convaincre que tout, dans la cognition, est inférence formelle sur des représentations quasi linguistiques. Au connexionniste, que c’est exactement le contraire, et que tout est association, classification, compilation statistique de données quasi sensorielles. D’un côté, le paradigme de l’inférence formelle; de l’autre, celui de la perception. Nombreux sont les chercheurs qui rejettent l’alternative, et plaident pour une articulation des deux points de vue, convenablement modifiés. Il n’est guère douteux, en tout cas, qu’en peu d’années notre perspective sur cette opposition aura beaucoup évolué.3. Recherches et applications: quelques exemplesUne difficulté méthodologique: sciences cognitives et disciplines traditionnellesL’encyclopédiste se heurte ici à une difficulté inhérente à son sujet, et liée à la fois au caractère interdisciplinaire des sciences cognitives, à l’étendue de leur objet et à leur position institutionnelle incertaine.Quelles limites assigner en effet à ces sciences? Faut-il considérer que toute discipline constituée dont l’objet coïncide en partie avec celui qu’elles se donnent est ipso facto elle-même une science cognitive? Ou bien ne faut-il en retenir qu’une partie, selon des critères extensionnels (nature des phénomènes étudiés), intensionnels (hypothèses initiales, méthodologie, niveau de description...), historiques (appartenance à une tradition, à une école)? Ou bien encore convient-il de rejeter toute référence aux divisions traditionnelles, et considérer les recherches actuelles comme les prémices d’une science nouvelle, la science cognitive?Ces questions, auxquelles il n’y a évidemment pas de réponse tranchée, puisqu’elles impliquent des choix scientifiques et stratégiques qui relèvent de décisions et de pratiques tant individuelles qu’institutionnelles, prennent ici une acuité particulière. Si les sciences cognitives avaient pris en France le développement qu’elles commencent à connaître ailleurs, notamment dans les pays de langue anglaise, il suffirait de renvoyer ici aux articles LINGUISTIQUE, PSYCHOLOGIE, etc. Il reviendrait au spécialiste, dans chaque cas, de présenter les principales recherches et d’indiquer celles qui relèvent, dans telle ou telle mesure, de l’approche caractéristique des sciences cognitives. Comme il n’en est pas ainsi actuellement, et qu’il est impossible dans le cadre du présent article de passer en revue toutes les disciplines, fût-ce en s’en tenant aux principales, et dans chacune à l’essentiel, nous nous contenterons de montrer, sur quelques exemples, de quelle façon différentes disciplines interviennent et interagissent pour éclairer un même phénomène.Thèmes interdisciplinairesLangage et communicationL’un des principaux et des premiers acquis des sciences cognitives est d’avoir distingué et articulé différents niveaux de représentation au sein du langage, chaque niveau nécessitant une analyse particulière, et leur articulation effective, dans la production et la compréhension du langage (parlé ou écrit), une théorie supplémentaire. Ajoutons que l’homme qui a le plus contribué à cette clarification de l’objet de la linguistique, Noam Chomsky, est également celui dont les conceptions ont le plus marqué le cognitivisme depuis ses origines, vers le début des années 1950. Quelles que soient les critiques dont ses théories font l’objet dans certains milieux, Chomsky demeure le principal penseur du domaine, comme le reconnaissent d’ailleurs la plupart de ses adversaires au sein des sciences cognitives.Un second acquis, plus négatif en apparence, a été la constatation qu’à chaque niveau la tâche qu’accomplit le système humain est d’une complexité stupéfiante, et que l’explication comme la simulation se heurtent à des difficultés redoutables.Notre premier exemple concerne la perception et la production du discours, du flux de la parole. (Notons en passant qu’ici se chevauchent le thème du langage et ceux de la perception et de l’action.) Acousticiens, phonéticiens, phonologistes sont solidaires face à une série de défis. Il leur faut expliquer trois phénomènes apparemment mystérieux:– la perception catégoriale, qui permet à l’auditeur de classer dans des catégories discrètes des stimulis dont les différences varient continûment;– la constance perceptive, qui permet à l’auditeur de comprendre le même mot en dépit de variations énormes d’une énonciation à l’autre (c’est cette variabilité qui s’oppose à la réalisation d’un système satisfaisant de reconnaissance de la parole);– l’invariance de la cible, en vertu de laquelle la même parole est produite par un locuteur, alors que d’une énonciation à l’autre les déplacements matériels de ses organes varient plus fortement encore que les sons produits.La perception de la parole est un domaine dans lequel d’autres disciplines progressent également. La psycholinguistique développementale découvre les capacités considérables que les nourrissons déploient dès les premières semaines, et parfois dès les premiers jours de la vie, dans la perception des phonèmes, la discrimination des paroles de la mère, celle de la langue maternelle, etc. La capacité de distinguer tous les phonèmes des langues naturelles semble présente à un stade très précoce, tandis que l’exposition exclusive à la langue maternelle conduirait à l’élimination ultérieure de certaines distinctions: les jeunes Japonais (monolingues) perdent la capacité de distinguer le /l/ du /r/.Les neurosciences, quant à elles, s’intéressent à l’organisation des structures cérébrales responsables de la perception, de la production et de la compréhension de la parole. Elles sont notamment guidées par l’étude des déficits du langage, qui présentent d’extraordinaires différenciations. Ce qui semblait de prime abord constituer une capacité homogène résulte en fait de la coopération de nombreuses structures fonctionnelles spécialisées et largement indépendantes. Les neurosciences rejoignent ainsi, par leurs propres voies, les conclusions des linguistes, des psychologues et des philosophes du langage.Passons sur les niveaux syntaxique et sémantique, malgré leur caractère absolument central dans l’étude du langage, et choisissons notre deuxième exemple dans le domaine de la pragmatique. La question est ici celle de la compréhension d’un message dont l’analyse phonologique, syntaxique et sémantique est accomplie, fournissant ce qu’on pourrait appeler, avec beaucoup de prudence, un sens «brut» ou littéral de la phrase ou des phrases énoncées. Que la question se pose constitue déjà (comme, à l’autre extrémité de la chaîne, pour la phonologie) un résultat non trivial. On savait depuis un certain temps que l’output de l’analyse sémantique (à supposer, ce qui est sans conséquence ici, que cette analyse prenne place après l’analyse phonologique et syntaxique et avant l’analyse pragmatique) doit dans certains cas être enrichi pour fournir une proposition complète, susceptible d’être vraie ou fausse: «Je suis content» n’est pleinement saisi par un auditeur ou un lecteur qu’après qu’il a appris que le locuteur est X – c’est là le phénomène de l’indexicalité . Mais ce n’est que progressivement que l’on a pris la pleine mesure de l’étendue du phénomène, puis de son appartenance à une famille beaucoup plus vaste d’effets d’enrichissement du sens brut. Le passage de ce sens à la proposition complète exprimée par le locuteur, puis à son intention communicative et enfin à la saisie, par l’auditeur, de cette dernière est désormais considéré comme une étape fondamentale, à laquelle participent tant les capacités linguistiques des locuteurs-auditeurs que leurs capacités cognitives générales. L’interprétation des dialogues les plus simples, tels que:«Pouvez-vous me passer le sel?– Excusez-moi, mon mari suit un régime.»Ou bien«Crois-tu que les pizzas sont bonnes ici?– Il paraît que le cuisinier est napolitain.»Ou encore:«Maman, tu me donnes 10 F pour acheter un compas?– Ne me dis pas que vous n’avez toujours pas commencé l’algèbre!»fait appel à des connaissances et à des inférences qui ne sont aucunement transmises par l’énonciation des phrases, mais néanmoins mises à contribution lors de leur compréhension. Relèvent du même ordre de phénomènes, et sont peut-être justiciables d’explications semblables, l’ambiguïté, la métaphore, l’ironie et de manière générale tous les effets argumentatifs et rhétoriques. Les recherches sur ces problèmes, dont certains sont étudiés depuis les Grecs, sont très actives. Y interviennent les linguistes, les philosophes, les logiciens, les spécialistes d’intelligence artificielle, et les modèles proposés sont suffisamment développés pour donner lieu à d’énergiques controverses.Logique et raisonnementPendant longtemps, la logique a été considérée comme fournissant les règles du raisonnement idéal: n’est-elle pas la science de l’inférence valide, c’est-à-dire de l’opération permettant de passer à coup sûr de prémisses vraies, ou supposées telles, à une conclusion vraie? Si tel de nos raisonnements ne se conforme pas aux canons de la logique, la raison doit en être recherchée, pensait-on, dans l’imperfection de nos capacités individuelles, dans l’irrationalité foncière de certaines aires de notre activité mentale (celles qui concernent les émotions, par exemple), ou encore dans l’application de règles spéciales, cachées, valables seulement dans certains domaines (d’où la possibilité d’une «logique des émotions», d’une «logique du pouvoir», d’une «logique de la folie», etc.).Très tôt, cependant, il est apparu que dans un domaine dont sont bannis, en principe, tant l’irrationalité que les insuffisances individuelles et les principes occultes, à savoir la science, les raisonnements ne procèdent qu’occasionnellement par déduction logique, qu’ils semblent souvent relever de l’induction . Le problème de l’induction, qui occupe laphilosophie depuis Bacon et Hume, est au centre de la philosophie des sciences du XXe siècle: parmi ses principaux représentants, Rudolph Carnap a cherché à le résoudre en montrant la possibilité d’une logique inductive , tandis que Karl Popper s’efforçait de démontrer l’impossibilité d’une telle logique tout en «sauvant» la connaissance scientifique. De son côté, W. V. O. Quine s’en prenait au caractère analytique, et partant incorrigible, de la logique déductive elle-même, et, revenant sur le geste de Frege et de Husserl, replaçait la logique dans la psychologie, ouvrant la voie à une «naturalisation» de l’épistémologie et préparant ainsi son assimilation aux sciences cognitives.Tel est le riche contexte philosophique dans lequel ces dernières ont repris la question générale du raisonnement. De leurs très nombreux travaux, dus principalement aux psychologues, aux philosophes, aux logiciens, aux spécialistes d’intelligence artificielle et aux linguistes, nous ne retiendrons ici que quelques aspects.Les heuristiques . Dans son effort pour faire exécuter à l’ordinateur des raisonnements complexes, qu’il s’agisse de jeu d’échecs, de compréhension de textes, de démonstration automatique de théorèmes ou de systèmes experts, l’intelligence artificielle a tôt fait de constater que, pour éviter l’explosion combinatoire provoquée par l’exploration systématique de tous les cas possibles, il fallait introduire dans les programmes des règles dites heuristiques, qui orientent la recherche dans une direction plus prometteuse, au risque, dans les cas défavorables, de ne pas conduire à la solution désirée. D’où toute une série de questions: Existe-t-il des heuristiques optimales? Comment s’assurer de la cohérence d’un ensemble de règles heuristiques? Les résultats parfois catastrophiques obtenus par les systèmes d’intelligence artificielle loin de leurs conditions optimales d’application sont-ils dus à des heuristiques défectueuses? Certaines de ces règles ont-elles une réalité ou une plausibilité psychologique et, de manière plus générale, l’efficacité relative de l’esprit humain ainsi que certaines de ses défaillances s’expliquent-elles par l’intervention d’heuristiques, conscientes ou préconscientes?Logique et formalisations du raisonnement . Trois questions expriment différemment ces interrogations:1. Une formalisation de l’heuristique est-elle possible?2. Si c’est le cas, faut-il considérer une telle formalisation comme une logique, complétant ou remplaçant la logique classique?3. Y a-t-il dans le raisonnement humain, saisi au niveau psychologique, un équivalent fonctionnel de cette heuristique formelle, une «logique naturelle»?Or ces questions sont exactement celles qu’il convient de poser à propos de toute forme de raisonnement s’écartant de la déduction classique. Ainsi généralisée, la question 1 appelle deux sortes de réponse: une réponse de principe, qui est en général positive dans le camp cognitiviste, dubitative dans le camp connexionniste et négative chez certains adversaires résolus de l’intelligence artificielle sous toutes ses formes, et de la philosophie «formaliste», qui la sous-tend; et une réponse par l’action, qui consiste à construire des formalisations de certaines formes de raisonnement: on assiste actuellement à une floraison de tels systèmes, destinés à prendre en compte des dimensions telles que le probable, le flou, la temporalité, les croyances et attributions de croyance, etc.À la question 2, certains philosophes répondent que seule la déduction est d’ordre logique, tandis que le raisonnement, notamment inductif, est de nature foncièrement différente. Tenter de l’enfermer dans des logiques toujours plus compliquées, et, selon eux, toujours plus arbitraires, n’apporte aucune clarification véritable.Quant à la question 3, elle appelle une investigation expérimentale, destinée à déterminer ce que les hommes font effectivement quand ils raisonnent, c’est-à-dire à la fois les résultats qu’ils obtiennent, et les procédures qu’ils appliquent, consciemment ou non. Beaucoup de travaux sont consacrés à cette tâche, l’une des premières que se soit assignée la psychologie cognitive (au point de s’y être, à ses débuts, pratiquement identifiée). Les résultats, malgré les difficultés d’interprétation qu’ils soulèvent, ne manquent pas de surprendre.Erreurs de raisonnement et illusions cognitives . Les psychologues ont en effet découvert toute une série d’erreurs systématiques dans certains raisonnements élémentaires. Ces erreurs affectent aussi bien la déduction logique que le raisonnement inductif et probabiliste. C’est ainsi que, placés devant une pile d’enveloppes portant d’un côté un timbre à 2 F (tarif réduit) ou bien un timbre à 2,20 F (tarif urgent), et de l’autre l’une des deux mentions «urgent» ou «réduit», et priés de vérifier le plus efficacement possible si toutes les enveloppes sont suffisamment affranchies, la plupart des sujets omettent certaines vérifications indispensables et en font d’inutiles. De même, interrogés sur les probabilités comparées pour qu’une femme ayant fait des études poussées pendant les années 1960 se retrouve employée de banque, ou bien employée de banque, syndicaliste et féministe, beaucoup de sujets estimeront la deuxième hypothèse plus probable.Les expériences de ce genre se sont multipliées, et s’il est toujours possible de contester la validité de l’une ou de l’autre, dans leur ensemble elles semblent bien prouver l’existence d’erreurs systématiques. La question centrale est alors d’interpréter le phénomène. Faut-il le comparer aux illusions perceptives? Manifeste-t-il des procédures, heuristiques ou autres, violant les calculs logique et probabiliste classiques, et dans ce cas doit-on s’en tenir à ces canons, ou au contraire mettre en cause leur normativité? Les sujets procéderaient-ils très différemment de la logique, et au lieu d’enchaîner des assertions, fût-ce fautivement, construiraient-ils des «modèles mentaux», ou chercheraient-ils à déterminer un «prototype» de la situation examinée? Dans les débats, loins d’être conclus, que suscitent ces questions, les frontières entre disciplines disparaissent, et l’on croit parfois être revenu à l’époque où la réflexion philosophique mêlait logique, psychologie et linguistique.Vision et perception du mondeLes recherches sur la vision sont peut-être la branche la plus «scientifique» (au sens étroit) des sciences cognitives. C’est aussi celle dans laquelle les neurosciences jouent le plus grand rôle. Le second fait n’explique qu’en partie le premier: la vision présente par rapport à d’autres modalités cognitives des particularités qui la rendent plus accessible à l’enquête scientifique. Elle est aussi l’objet d’une fascination ancienne, et son étude bénéficie d’une avance prise au cours des siècles, tout particulièrement depuis une centaine d’années.Ce qui distingue la vision, c’est d’abord le caractère fortement objectif et reproductible de ses manifestations. Les illusions visuelles elles-mêmes comptent parmi les phénomènes les plus robustes du monde naturel. Ces propriétés sont rapportées aujourd’hui au caractère modulaire du système visuel. Fonctionnant de manière absolument automatique (il est impossible de ne pas voir ce qu’on a sous les yeux, même s’il arrive qu’on ne le remarque pas), prodigieusement sûr et rapide, ce système est dans une grande mesure isolé des autres systèmes cognitifs, qui lui transmettent peu d’informations, sinon aux stades ultimes de l’élaboration des images. En particulier, nos croyances et nos attentes affectent rarement notre perception de l’environnement: nous voyons le tigre s’élancer sur nous, si improbable et importune que sa présence nous paraisse place de l’Opéra, et devant la cage vide du zoo nous écarquillons nos yeux en vain, si probable et espérée qu’elle soit.Une deuxième particularité de la vision est de se prêter à des séparations nettes, sur le plan fonctionnel comme sur celui de l’analyse. Il est facile de distinguer, par exemple, la perception des couleurs, celle des formes, celle du relief et de la profondeur, celle des dimensions relatives, celle du mouvement; les défaillances sélectives, permanentes ou occasionnelles, nous aident à penser de telles distinctions. La cécité elle-même, dans la variété de ses formes et de ses étiologies, nous renseigne, paradoxalement, sur les composantes de la vision. De même, les niveaux d’analyse sont assez facilement discernables, de la biochimie des cellules photosensibles à l’optique physique, en passant par la neuroanatomie, la neurophysiologie du cortex visuel, les problèmes topologiques de la transformation d’une image rétinienne bidimensionnelle en un percept tridimensionnel, etc.Un troisième privilège de la vision est d’être présente dans une grande variété d’organismes autres que l’homme adulte, du nourrisson aux chats, aux oiseaux et aux poissons, chez lesquels elle prend des formes variées, et de s’y laisser interroger, du moins jusqu’à un certain point.Enfin, les aires visuelles occupent chez les Primates un bon tiers du cortex, ce qui fait de la vision la fonction cognitive majeure pour les neurosciences, et leur sujet favori: ils lui consacrent plus d’efforts qu’à tout autre.Pourtant, elle demeure profondément mystérieuse, et le contraste entre l’abondance d’informations sûres dont nous disposons sur ses mécanismes et la perplexité dans laquelle nous plongent ses énigmes est peut-être la plus frappante de ses singularités.Renvoyant aux articles VISION et VISION(physiologie), nous mentionnerons seulement quelques-uns des problèmes qui retiennent l’attention des chercheurs, et semblent exiger une fois de plus la collaboration de plusieurs disciplines.Si l’on considère d’abord les images que nous avons conscience de percevoir, nous constatons qu’elles sont stables et dépourvues de discontinuité. Or l’examen des mouvements oculaires dans l’orbite révèle l’existence de saccades régulières (se produisant deux à cinq fois par seconde), d’amplitude non négligeable (entre 4 et 150), rapides (600/s). À cela s’ajoutent les variations de l’image rétinienne lorsque nous nous déplaçons tout en maintenant notre regard sur un objet fixé. Comment expliquer que l’image perçue ne pivote ni ne varie au cours de ces mouvements? De même, la «tache aveugle» correspondant à l’implantation dans la rétine du nerf oculaire, dont nous savons qu’elle provoque un «trou» dans l’image rétinienne, n’a pas d’homologue perceptif. De manière générale, tout un ensemble de mécanismes «correctifs» semblent compenser les diverses imperfections du système optique que constitue l’œil. Mais quel écart s’agit-il de corriger? Quel sens donner à la notion d’une perception fidèle : à quoi le serait-elle? Autant de questions que posera le philosophe avec non moins de curiosité que le neurophysiologiste et le psychologue.La reconnaissance invariante des formes donne naissance à une seconde série de questions. Comment se fait-il que nous soyons capables de reconnaître un même objet sous des angles, à des distances ou dans des contextes extrêmement variables, sans être conscients (sauf effort particulier) que la sensation est chaque fois différente? De même, comment classons-nous des objets très différents, tels que des graphies différentes de la même lettre de l’alphabet, dans une même catégorie, sans avoir conscience, ici encore, de devoir faire l’effort d’assimiler une forme à une autre? Qu’il ne s’agisse pas là de problèmes imaginaires est attesté par le fait que trente années de recherches intensives en vision artificielle n’en sont pas venues à bout.Avec la question de la segmentation d’une image même modérément complexe, nous abordons les processus visuels «de haut niveau». C’est là qu’apparaît pleinement la notion de représentation cognitive des signaux visuels, après une première phase de traitement par les processus «de bas niveau». (La question de l’ordre dans lequel les différents processus se déroulent, et de la manière éventuelle dont ils coopèrent, se pose également; il n’est pas nécessaire d’en préjuger ici pour formuler notre troisième problème.) Comment le système visuel s’y prend-il pour constituer, à partir des pixels , ces «éléments d’image» définis par une intensité et un couple de coordonnées dans un repère bidimensionnel associé à l’image rétinienne, des formes connexes, à les situer les unes par rapport aux autres, à distinguer le fond sans en faire une forme de plus? Comment passer, pour le dire brièvement, d’une représentation locale à une représentation globale de l’image? Immense problème qui, sans être complètement résolu, a fait néanmoins l’objet d’avancées remarquables, notamment grâce aux efforts d’un chercheur particulièrement respecté dans tout le domaine des sciences cognitives, David Marr (1945-1980).Marr a d’abord accompli un progrès méthodologique en considérant qu’il s’agit d’un processus de traitement d’informations symboliques, et en insistant sur la nécessité de le formuler d’abord au niveau formel, avant de partir à la recherche d’un algorithme abstrait de traitement, puis d’une réalisation de cet algorithme dans le tissu nerveux. Cette méthode s’étend, selon lui, à tout phénomène cognitif complexe, et la leçon a été entendue bien au-delà du domaine de la vision. En second lieu, Marr a montré comment le système visuel pouvait extraire certaines primitives, tels les bords d’une forme, et les combiner en vue de formuler des hypothèses sur l’étendue et la position respective des objets dans l’image, notamment en profondeur. Ce processus se déroule presque entièrement au niveau symbolique, et implique l’élaboration d’une suite de représentations porteuses d’informations particulières. Il met en œuvre des principes heuristiques d’allure kantienne, hypothèses générales sur l’impénétrabilité des objets solides ou la continuité des bords, se démarquant ainsi des approches empiristes qui ont longtemps dominé. Sans être à l’abri des critiques, les thèses de Marr ont néanmoins profondément marqué le domaine, et aux yeux d’une majorité de chercheurs indiquent la voie à suivre. Cependant, les tenants du point de vue «écologique» de J. J. Gibson mettent en cause l’approche symbolique cognitiviste de Marr; il en est de même, aujourd’hui, de certains connexionnistes, malgré le caractère connexionniste des mécanismes proposés par Marr pour prendre en compte le caractère massivement parallèle, à certains stades, du traitement de l’information visuelle.Notre dernier exemple est celui de la compréhension des scènes. Le problème est maintenant de dégager d’une image supposée convenablement segmentée une hypothèse plausible sur la situation ou l’événement qu’elle (re)présente. (Ici non plus il n’est pas en fait indispensable de supposer que ce processus d’interprétation se place après le processus de segmentation, ou même certains processus de bas niveau.) Comme la pragmatique dans le cas de la communication linguistique, cette étape mêle les fonctions proprement visuelles et les fonctions cognitives générales. Elle fait appel en effet à de nombreuses informations sur l’organisation de l’environnement, sur la manière dont les événements se regroupent, selon des probabilités variables, sur les enchaînements causaux possibles et impossibles, sur les croyances et les attentes des êtres humains, etc. Bref, il n’est aucune compétence cognitive qui ne puisse à tout moment être mise à contribution dans ce travail d’interprétation. Tout, jusqu’à la variété des solutions acceptables et la possibilité d’erreurs, fait de ce travail une de ces tâches cognitives centrales que Fodor assimile à la «fixation de la croyance». Or il estime que – par opposition aux processus modulaires (essentiellement les modalités sensorielles et une grande partie du traitement du langage) dont, en raison de leur caractère automatique, systématique et surtout autonome par rapport aux autres fonctions cognitives, on peut espérer faire la théorie – les processus centraux ne seront probablement jamais l’objet d’une science constituée. Il est vrai que les progrès, dans la compréhension des scènes, comme dans celle des dialogues et des textes par exemple, sont hésitants. Il a néanmoins été possible, en restreignant fortement l’univers dont les images sont analysées (stratégie universelle pour l’étude et la simulation des processus centraux), de proposer des mécanismes fondés sur des schémas hiérarchisés de représentations. Comme toujours en pareil cas, la question est de savoir dans quelle mesure ces solutions sont généralisables, et on ne peut qu’hésiter entre l’espoir et le doute.Les applicationsLes sciences cognitives sont-elles applicables? Naturellement, et de multiples façons; certaines sont du reste de plein droit des disciplines appliquées. La vraie question serait donc celle des rapports entre sciences cognitives pures ou théoriques et sciences cognitives appliquées. Renonçant à la traiter, nous nous contenterons d’énumérer quelques-unes des principales applications, en les classant selon les sphères d’activité auxquelles elles peuvent contribuer.Intelligence artificielle, robotique, vision artificielleTout en étant dès l’origine, on l’a vu, l’une des composantes majeures du projet des sciences cognitives, l’intelligence artificielle consiste aujourd’hui en grande partie en une collection d’applications de ces sciences – dans chacune des quatre grandes aires (perception, raisonnement, langage, action), les recherches fondamentales sur l’homme ont leur pendant en intelligence artificielle. Il arrive que les réalisations dans ce domaine ne s’inspirent pas directement des travaux sur l’homme, ou bien que leurs auteurs n’en aient pas conscience, ou encore que ce soient les applications informatiques qui ont à l’inverse suscité les recherches fondamentales. (Il y a là un problème complexe qu’on ne peut qu’effleurer; qu’on songe à la définition qu’un Roger Schank donne de l’intelligence artificielle: la science de l’intelligence humaine!)Il n’empêche que dans l’ordre logique, et, malgré des exceptions, souvent aussi dans l’ordre méthodologique, l’intelligence artificielle applique les notions et les résultats des (autres) sciences cognitives. Mentionnons, pour la perception, la vision artificielle et la reconnaissance des signaux acoustiques ou de la parole; pour le raisonnement, les systèmes experts et tous les systèmes d’aide à la décision, au diagnostic ou au contrôle, les bases de données dites intelligentes, les jeux, etc.; pour le langage, la traduction automatique, l’analyse automatique des textes, le traitement de texte, la classification et l’indexation, etc.; pour l’action, la planification et la coordination robotique...Thérapeutique et prothèsesLa neuropharmacologie a d’ores et déjà obtenu des résultats spectaculaires dans la thérapeutique palliative de certains désordres mentaux. Il est permis de penser que les connaissances nouvelles acquises par la neurochimie et d’autres neurosciences permettront d’affiner sensiblement ces traitements, voire de compenser chez l’enfant un désordre métabolique et rétablir les conditions d’un développement cognitif normal.La neurophysiologie pathologique a dès à présent des applications cliniques, fondées sur des progrès dans le diagnostic et la taxinomie des déficits cognitifs. Dans des domaines tels que la rééducation des patients ayant subi des lésions cérébrales partielles, la formation des enfants ayant des difficultés d’apprentissage liées ou non à un handicap sensoriel, moteur, ou cognitif, ou souffrant d’une déficience intellectuelle massive (syndromes de Down et de Williams), de grands espoirs sont permis.Il en est de même pour les prothèses sensorielles et motrices: l’intelligence artificielle, l’informatique, la mécanique, la neuroanatomie et la neurophysiologie coopèrent activement dans ce domaine, mettant à profit nos connaissances toujours plus fines des connexions nerveuses, les techniques de miniaturisation électronique et de micromécanique, les nouveaux matériaux, etc.Pédagogie, éducation, communicationLes sciences cognitives nous offrent une conception de la communication linguistique, de l’élaboration de modèles mentaux ou de prototypes, des défaillances (peut-être bénéfiques) de notre rationalité, de nos aptitudes d’apprentissage et d’inférence et des autres processus de transmission et de fixation des croyances. Il est certain que ces découvertes auront à terme une portée, peut-être considérable, sur la pédagogie (qu’il s’agisse de la formation des enfants et des jeunes gens, ou de la formation continue et du recyclage), sur l’éducation civique (au sens le plus large), sur la communication politique et la persuasion de masse (causes nationales, publicité), sur l’action économique, sur les techniques de l’information (média, informatique...). De fait, les perspectives sont vertigineuses, et par conséquent également redoutables.Cependant, la plus grande prudence nous semble ici de mise, non pas pour des raisons d’éthique, mais parce que les théories dont nous disposons actuellement restent soit trop générales pour suggérer dès à présent des applications, soit trop arbitraires ou fragiles pour en inspirer de raisonnables. L’histoire est là pour nous rappeler que les théories de la cognition, appliquées trop hâtivement ou directement à la conduite des affaires et des âmes humaines, ont eu plus d’effets placebo et d’effets pervers que d’efficacité.Communication homme-machine, ergonomieLa communication entre l’homme et la machine, contrairement à la communication entre l’homme et l’homme, appelle des applications immédiates et certainement bénéfiques. En mettant au jour certains mécanismes à l’œuvre chez l’homme, les sciences cognitives permettent à la machine de s’adapter à l’homme, pour la première fois dans l’histoire de manière systématique. Dans le même temps, en inventant des machines capables de reproduire certaines démarches humaines, les sciences cognitives permettent à l’homme de se rapprocher de la machine. Qu’il s’agisse de machines dans lesquelles la part informationnelle l’emporte toujours plus sur la part motrice ne fait que favoriser cette symbiose.Ce domaine, appelé parfois ergonomie cognitive, touche à la plupart des branches des sciences cognitives, ainsi qu’aux domaines d’application énumérés à l’instant. Aussi est-il malaisé d’en dégager les spécificités.Au-delà des généralités anthropologiques et sociologiques qui n’ont pas leur place ici, il existe une réflexion approfondie et des études empiriques détaillées sur tous les aspects de l’interaction entre l’homme et les machines, surtout celles qui comportent un contrôle informatique. Ces travaux portent sur les modes de représentation concrète de l’information fournie par la machine (le Macintosh en fournit un bel exemple), sur le ou les langages employés dans la communication, sur la cadence du dialogue et les contraintes que la machine doit respecter pour épouser le rythme naturel de l’opérateur humain, sur la constitution d’un modèle de la machine par l’homme (réunissant les principes généraux de fonctionnement, l’état particulier de la machine au cours de l’opération présente, les possibilités et les causes de panne et d’erreur), et inversement d’un modèle de l’homme par la machine. Connaissances, inférences, décisions, actions sont ici des notions que partagent l’homme et la machine, et sur lesquels ils doivent d’une certaine manière se mettre d’accord, ou du moins prendre la mesure de leurs différences.La tâche était ici de donner une idée de ce qui se fait et peut se faire dans le cadre encore incertain d’une science de l’esprit. Les critiques faites à ces programmes de recherche ne manquent pas; on leur reproche leur naïveté philosophique, leur positivisme, leur empirisme, leur scientisme, leur cartésianisme, leur kantisme, leur ambition démesurée, leur étroitesse d’esprit, leurs résultats fragiles, leurs promesses non tenues, leur réductionnisme, leur faiblesse formelle, leur formalisme, leurs divisions, leurs manifestes unitaires, et bien d’autres choses encore. Parmi ces critiques, aucune, faut-il le préciser, n’est concluante. Elles sont souvent instructives, et aident les chercheurs à remédier à certaines faiblesses. Ils sont du reste souvent eux-mêmes leurs critiques les plus lucides.L’erreur la plus grave, de la part de ceux qui, de l’extérieur ou de l’intérieur, tentent d’évaluer globalement le domaine, pour l’élever ou l’abaisser, est de lui attribuer une unité doctrinale ou méthodologique qu’il n’a pas. Ce qui réunissait à l’origine les chercheurs, c’était une sorte de charte commune, qui ne jouait que le rôle d’un étendard, et à laquelle il n’a été à aucun moment nécessaire d’adhérer strictement. Formulé pour lancer le mouvement, motiver ses participants et l’imposer institutionnellement, le credo scientifique et philosophique des pionniers ne joue désormais qu’un rôle mineur dans le travail des chercheurs. Les sciences cognitives ont aussi une définition extensionnelle, et l’on peut s’en réclamer tout en rejetant les postulats du cognitivisme ou de toute autre doctrine.Ce que les différents programmes de recherche partagent, au-delà d’une certaine éthique et d’une méthodologie scientifique, c’est peut-être davantage un air de famille que des principes. En tant que concept, les sciences cognitives illustreraient assez bien l’image qu’ils se sont forgée, après bien des détours, de la notion de concept – image qui les réconcilie avec celui que l’on présente souvent comme leur adversaire avant la lettre, le Wittgenstein des Investigations philosophiques .On trouve certes chez elles davantage d’incertitudes et de fragilités que dans les sciences établies depuis longtemps. Après une période riche en doctrine et pauvre en résultats, la profusion de résultats qu’elles connaissent depuis une dizaine d’années s’accompagne de désordres dans les fondements. Aussi arrive-t-il encore qu’elles donnent une impression d’immaturité, alors même qu’elles sont aujourd’hui indiscutablement sorties de l’enfance. Si l’on songe au développement de l’homme, est-ce si paradoxal?
Encyclopédie Universelle. 2012.